從《獵屠》、《孤注一擲》到上週上映的《鸚鵡殺》,詐騙相關主題電影正在為中國犯罪治理提供一種有效的宣傳手段,但隨著新一輪AI技術的普及,未來的挑戰可能更嚴峻。對大洋彼岸的美國而言,反詐或許將成為它與中國在不確定時代的另一個新共識。光是2020年,美國的民調顯示,全美國有多達5,600萬人都被電話詐騙過,這大約是美國人口的六分之一,其中竟然還有17%的美國人不只一次被騙。在電信詐騙領域,印度之於美國就像緬甸之於中國。但顯然印度比緬甸更具發展詐騙產業的土壤。一方面,英語作為官方語言,在印度的普及率比較高,印度也藉此擁有了人才上的「天然優勢」;另一方面,印度自2000年以來就成為了各大跨國企業在海外的電話客服的外包商,相同的口音不同的內容創造了新的電話騙局。但在新一輪的AI技術下,印度在電話詐騙領域的寶座可能被取代。.「來信/來信是想通知您,大通銀行(Chase)有您2000美元的退款亟待支付。為了加快處理進程並確保您盡快收到退款,請按照以下說明進行操作:請致電大通客戶服務部1-800-953-XXXX查詢您的退款狀態。請務必準備好您的帳戶資訊和任何相關資訊…」如果你在大通銀行辦理過業務,並在電子郵件或簡訊中收到了這條訊息,你可能會認為這是真的。它聽起來很專業,沒有奇怪的措辭、錯誤的語法或詭異的稱呼,而後者都是以前我們經常收到的網絡釣魚信息的特徵。這並不奇怪,因為這則訊息是由科技巨頭OpenAI去年底發布的人工智慧聊天機器人ChatGPT所產生的。作為提示,我們只需在ChatGPT中輸入:「給某人發一封郵件,告訴他大通銀行欠他2000美元退款。讓他撥打1-800-953-XXXX獲得退款。」(為了讓ChatGPT合作,我們必須輸入一個完整的數字,但顯然我們不會公佈這個號碼。)三藩市一家反詐欺新創公司Sardine的共同創辦人兼執行長索普斯•蘭詹(Soups Ranjan)說:「現在騙子的話術非常完美,就像其他母語使用者一樣。」美國一家數位銀行要求匿名的反詐騙主管也證實,銀行客戶被騙的情況越來越多,因為「他們收到的簡訊話術幾乎沒有任何破綻」。(為了避免自己成為受害者,請參閱本文末尾的五個建議。)在這個迎來生成式人工智慧或深度學習模型的新世界,這些模型可以根據他們接受過的資訊創建內容,對於那些心懷不軌的人來說,製作文字、音訊甚至視訊比以往任何時候都更容易。這些文字、音訊甚至影片不僅可以欺騙潛在的個人受害者,還可以欺騙現在用來挫敗詐騙的程式。在這方面,人工智慧並沒有什麼獨特之處,畢竟長期以來,壞人最早使用新科技,而警察則在後面拼命追趕。例如早在1989年,《福布斯》就曝光了竊賊如何利用普通電腦和雷射印表機偽造支票來騙過銀行,而當時的銀行沒有採取任何特殊措施來檢測這些假鈔。01. AI助長網路詐欺的崛起美國消費者向美國聯邦貿易委員會(FTC)報告稱,去年他們因詐騙而損失了創紀錄的88億美元——這還不包括未報告的被盜金額。.如今生成式人工智慧正在帶來威脅,並可能最終會讓現階段最先進的防詐欺措施都變得過時,例如語音認證,甚至是旨在將即時頭像與記錄頭像相匹配的「活動檢查」 (Liveness Check)。Synchrony是美國最大的信用卡發行商之一,擁有7,000萬活躍帳戶,該公司對於這趨勢有最直觀的認識。Synchrony高級副總裁肯尼斯·威廉斯(Kenneth Williams)在給《福布斯》的一封電子郵件中說:「我們經常看到有人使用深度偽造的圖片和影片進行身份驗證,我們可以有把握地認為它們是使用生成式人工智慧創建的。」紐約網路公司Deep Instinct在2023年6月對650名網路安全專家進行的一項調查顯示,四分之三的受訪專家發現,過去一年裡,網路詐騙事件有所增加,「85%的受訪問者將這種增加歸因於壞人使用了生成式人工智慧。」此外,美國聯邦貿易委員會也報告稱,2022年,美國消費者因詐欺損失了88億美元,比2021年增加了40%以上。最大的損失金額通常來自投資騙局,但冒名頂替的騙局是最常見的,這是一個不祥的跡象,因為這些騙局可能會因為人工智慧而進一步增強。犯罪分子可以透過各種令人眼花撩亂的方式使用生成式人工智慧。如果你經常在社交媒體或任何網路上發帖,他們可以讓一個人工智慧模型按照你的風格寫作,然後他們可以給你的祖父母發短信,懇求他們寄錢來幫助你擺脫困境。更可怕的是,如果他們掌握了一個孩子的簡短聲音樣本,他們就可以打電話給孩子的父母,冒充他們的小孩,並假裝自己被綁架了,要求父母支付贖金。這正是亞利桑那州一位四個孩子的母親詹妮弗·德斯蒂法諾(Jennifer DeStefano)今年6月在國會作證時所經歷的事情。不只是父母和祖父母,企業也成為了攻擊目標。犯罪者也可以偽裝成供應商,向會計人員發送看上去像是真的電子郵件,說他們需要盡快收到款項,並附上受他們控制的銀行帳戶的付款說明。Sardine的執行長蘭詹表示,Sardine的許多金融科技新創公司客戶自己也中了這些圈套,損失了數十萬美元。雖然與2020年一家日本公司在公司董事的聲音被克隆後損失的3500萬美元相比,這只是小巫見大巫(《福布斯》當時最先報道了這場精心策劃的騙局),但就現在越來越頻繁的類似案件而言,之前那起案件只是一部預告片,因為用於寫作、語音模仿和視頻處理的人工智能工具正在迅速變得更有能力、更容易獲得,甚至對普通的欺詐者來說也更便宜。防詐騙公司Persona的聯合創始人兼首席執行官里克•宋(Rick Song)表示,過去你需要成百上千張照片才能製作出高質量的深度造假視頻,而現在你只需要幾張照片就能做到。(是的,你可以在沒有真實視頻的情況下製作一個假視頻,但顯然,如果你有一個真視頻可用,那就更容易了。)02. 陷阱與電話欺騙:深度聲音複製的危險就像其他產業正在將人工智慧運用於自身業務一樣,騙子們也在利用科技巨頭發布的生成式人工智慧模型創造現成的工具,例如FraudGPT和WormGPT。在1月發布的一段YouTube影片中,世界首富伊隆馬斯克(Elon Musk)似乎是在觀眾宣傳最新的加密貨幣投資機會:他聲稱,特斯拉贊助了一項價值1億美元的免費活動,承諾將向參與者兩倍返還他們投入的比特幣、以太幣、狗狗幣或以太幣等加密貨幣。「我知道大家聚集在這裡是出於一個共同的目的。現在我們舉辦了一場直播,每個加密貨幣所有者都可以增加他們的收入。」一個低解析度的馬斯克在台上說。「是的,你沒聽錯,我正在主持SpaceX的一場大型加密貨幣活動。」沒錯,這段影片就是深度偽造的——騙子利用了他在2022年2月關於SpaceX可重複使用太空船計畫的演講來模仿他的形象和聲音。YouTube已經撤下了這段視頻,但在那之前任何已經向視頻中的地址發送了加密貨幣的人幾乎肯定會荷包受損。馬斯克是造假影片的主要模仿目標,因為網路上有無數的他的音訊樣本來支援人工智慧語音克隆,但現在幾乎任何人都可以被冒充。今年早些時候,住在佛羅裡達州南部一個退休社區的93歲老人拉里·萊納德(Larry Leonard)在家時,他的妻子接了一個座機電話。一分鐘後,她把電話遞給了萊納德,然後他聽到了電話那頭一個像他27歲孫子的聲音,說他開著卡車撞倒了一個女人,被關進了監獄。雖然萊納德注意到打電話的人叫他“爺爺”,而不是他孫子平時喜歡叫的“姥爺”,但那個人的聲音和他孫子一模一樣,而且他孫子確實開著一輛卡車的這個事實讓他把懷疑放在了一邊。當萊納德回答說他要打電話給孫子的父母時,打電話的人掛斷了電話。萊納德很快得知他的孫子是安全的,而整個故事——以及講述它的聲音——都是假的。萊納德在接受《富比士》採訪時表示:「他們能夠準確地捕捉到他的聲音、語調和語氣,這對我來說既可怕又驚訝。他們的句子或單字之間沒有停頓,這表明這些話是從機器或程式中讀出的,但聽起來就跟真的一樣。」老年人經常成為這類騙局的目標,但我們每個人現在都要對打進來的電話保持警惕,即使它們來自看起來很熟悉的號碼——比如鄰居。美國退休人員協會(AARP)的詐欺預防項目主管凱西·斯托克斯(Kathy Stokes)哀嘆道:「越來越多的情況是,我們不能相信接到的電話,因為騙子偽造了(電話號碼)。」美國退休人員協會是一家遊說和服務提供商,擁有近3800萬50歲及以上的會員。「我們不能相信我們收到的電子郵件,也不能相信我們收到的短信。所以我們被排除在了彼此交流的典型方式之外。」另一個不祥的進展是,即使是新的安全措施也受到了威脅。例如,為5000多萬投資者提供服務的共同基金巨頭先鋒領航集團(Vanguard Group)等大型金融機構為客戶提供了透過電話通話(而不是回答安全問題)來獲得某些服務的選擇。「你的聲音是獨一無二的,就像你的指紋一樣。」先鋒集團在2021年11月的一段影片中解釋說,該影片敦促客戶註冊語音驗證。但語音克隆技術的進步表明,企業需要重新考慮這種做法。Sardine的蘭詹說,他已經看到一些人使用語音克隆技術成功地通過銀行身份驗證並進入帳戶。先鋒集團的發言人拒絕評論該公司可能採取哪些措施來防止語音克隆技術的進步。採用非正式程序支付帳單或轉帳的小型企業(甚至是大型企業)也容易受到壞人的攻擊。長期以來,詐欺者透過電子郵件發送看似來自供應商的假髮票要求付款的情況屢見不鮮。現在,利用廣泛使用的人工智慧工具,詐騙者可以使用複製版本的高階主管聲音打電話給公司員工,假裝授權交易,或要求員工在「網路釣魚」或「語音釣魚」軟體中披露敏感資料。Persona執行長里克•宋表示:「說到冒充高管進行高價值欺詐,那就太厲害了,那也是一個非常現實的威脅。」他將這描述為自己「在語音方面最大的恐懼」 。03. AI能騙過防詐騙專家嗎?犯罪者越來越多地使用生成式人工智慧來欺騙防詐欺專家——即便這些防詐欺專家和科技公司在當今以數位為主的金融體系中扮演武裝警衛和運鈔車的角色。這些公司的主要職能之一是核實消費者的身份,以保護金融機構及其客戶免受損失。像Socure、Mitek和Onfido這樣的防欺詐公司驗證客戶身份的方法之一就是「活動檢查」(liveness check)——即他們讓你自拍照片或視頻,然後用照片或視頻片段將你的臉與你必須提交的身份證圖像進行匹配。在知道這個系統是如何運作的以後,竊賊就會在暗網上購買真實駕照的照片,然後使用視頻換臉程序——這種工具正在變得越來越便宜,也越來越容易獲得——把別人的真實頭像疊加到自己的臉上。然後,他們就可以在別人的數位臉後面說話和移動頭部,從而增加他們騙過活動檢查的機會。宋說:「偽造人臉的數量有了相當大的增長,這些偽造人臉是由AI生成的,具有很高的質量,而且針對活動檢查自動生成的欺詐攻擊也在增長。」他說,欺詐激增的情況因行業而異,但對一些行業來說,「我們看到的可能是去年的十倍。」金融科技和加密貨幣公司尤其容易受到此類攻擊。反詐騙專家告訴《富比士》,他們懷疑知名的身份驗證提供者(如Socure和Mitek)的防詐騙指標已經因此而下降。Socure首席執行官約翰尼•艾爾斯(Johnny Ayers)堅持認為“這絕對不實”,並表示他們在過去幾個月推出的新模型導致前2%最具風險的冒充身份欺詐捕獲率上升了14%。然而,他承認,一些客戶在採用Socure的新模型方面進展緩慢,這可能會影響它們的表現。艾爾斯說:“我們的客戶當中有一家全美排名前三的銀行,他們現在已經落後了四個版本。”Mitek拒絕對其模型的防詐欺性能指標發表具體評論,但其高級副總裁 Chris Briggs表示,如果一個特定的模型是在18個月前開發的,「那麼是的,你可以說舊模型的防詐騙效能不如新模型。隨著時間的推移,Mitek會運用現實生活中的資料流以及實驗室資料不斷對模型進行訓練和再訓練。」摩根大通、美國銀行和富國銀行都拒絕就他們在生成式人工智慧詐欺方面所面臨的挑戰發表評論。Chime是美國最大的數位銀行,過去也曾遭遇重大詐欺問題,其發言人表示,Chime銀行目前尚未發現與生成式人工智慧相關的詐欺有成長趨勢。如今,金融詐欺的幕後黑手有單獨行動的犯罪分子,也有數十名甚至數百名由犯罪者組成的複雜團夥。最大的犯罪集團和公司一樣,擁有多層組織結構和包括資料科學家在內的高階技術成員。蘭詹說:「他們都有自己的指揮和控制中心。」一些幫派成員負責放出誘餌——例如發送釣魚郵件或撥打電話。如果有「魚」上鉤了,他們就讓另一個同夥和被詐欺者繼續聯繫,這位同夥會假裝自己是銀行分行的經理,試圖讓你把錢從自己的帳戶中轉移出去。另一個關鍵步驟是:他們經常會要求你安裝一個像微軟TeamViewer或Citrix這樣的程序,以便遠端控制你的電腦。蘭詹說:「他們可以讓你的電腦完全黑屏。然後,騙子就會(用你的錢)進行更多交易,並把錢提取到他們控制的另一個網址上去。」騙子用來欺詐人們(尤其是老年人)的一個常見伎倆就是謊稱對方的帳戶已經被騙子控制了,需要對方合作才能追回資金。04. OpenAI和Meta的不同策略以上詐欺過程並非一定要使用人工智慧,但人工智慧工具可以讓騙子的伎倆更有效率、更可信。OpenAI已經試圖引入保護措施,以防止人們使用ChatGPT進行詐欺。例如,如果使用者讓ChatGPT起草一封電子郵件來詢問某人的銀行帳號,ChatGPT就會拒絕執行該指令並回覆:「我很抱歉,但我無法協助處理這個請求。」然而,使用ChatGPT進行詐欺操作還是很容易。OpenAI拒絕對這篇文章發表評論,只是讓我們去看公司發布的部落格文章,其中一篇文章發佈於2022年3月,文中寫道:「負責任的部署沒有一勞永逸的靈丹妙藥,所以我們試圖在開發和部署的每個階段了解我們模型的局限性以及潛在的濫用途徑,並解決相關問題。”與OpenAI相比,Meta推出的大語言模型Llama 2更容易被經驗豐富的犯罪分子當作犯罪工具使用,因為Llama 2是開源模型,所有程式碼都可以查看和使用。專家表示,這為犯罪分子提供了更多犯罪途徑,他們可以將模型據為己有,然後利用模型破壞網路安全。例如,人們可以在上面建立惡意的人工智慧工具。《富比士》邀請Meta對此發表評論,但沒有得到回應。Meta執行長馬克·祖克柏(Mark Zuckerberg)曾在今年7月表示,保持Llama的開源性可以提高其「安全性和保障性,因為開源軟體會受到更嚴格審查,更多人可以一起尋找並確定問題的解決方案。”防詐欺公司也試圖加快創新腳步以跟上AI發展的步伐,並且更多地利用新型數據類型來發現詐欺者。蘭詹說:「你打字的方式、走路的方式或拿手機的方式——這些行為特徵定義了你,但這些數據在公共領域是無法訪問的。要在網上判斷一個人是不是他自詡的那個人,內嵌的人工智慧將發揮重要作用。」換句話說,我們需要人工智慧來抓住使用人工智慧進行詐騙的罪犯。保護自己免受人工智慧詐騙的五個技巧:強化帳號:多重身分驗證(MFA)要求輸入密碼和額外的代碼來驗證你的身分。建議在你的所有金融帳戶上啟用MFA。注意隱私:騙子可以使用社群媒體或網路上的個人資訊來更好地冒充你的身分。封鎖陌生來電:花旗集團金融犯罪與詐欺防制主管麥克‧史坦巴克(Mike Steinbach)建議,不要接聽陌生號碼打來的電話。建立暗語或密碼:可以透過詢問事先商定的暗號或短語來確認對方是否真的是自己的家人。小型企業可以採用密碼來驗證企業行為(如高階主管要求進行電匯)。聽到高層要求購買禮品卡的訊息要格外當心——這是一個常見的騙局。出其不意:詐欺防制公司PointPredictive的共同創辦人蘭克‧麥肯納(Frank McKenna)建議,如果你在打電話時感覺不太對勁,可以試著向對方問一個隨機的問題,例如對方所在城市的天氣如何,或是一些個人問題。文|福布斯美國|福布斯中國
從《獵屠》、《孤注一擲》到上週上映的《鸚鵡殺》,詐騙相關主題電影正在為中國犯罪治理提供一種有效的宣傳手段,但隨著新一輪AI技術的普及,未來的挑戰可能更嚴峻。對大洋彼岸的美國而言,反詐或許將成為它與中國在不確定時代的另一個新共識。光是2020年,美國的民調顯示,全美國有多達5,600萬人都被電話詐騙過,這大約是美國人口的六分之一,其中竟然還有17%的美國人不只一次被騙。在電信詐騙領域,印度之於美國就像緬甸之於中國。但顯然印度比緬甸更具發展詐騙產業的土壤。一方面,英語作為官方語言,在印度的普及率比較高,印度也藉此擁有了人才上的「天然優勢」;另一方面,印度自2000年以來就成為了各大跨國企業在海外的電話客服的外包商,相同的口音不同的內容創造了新的電話騙局。但在新一輪的AI技術下,印度在電話詐騙領域的寶座可能被取代。.「來信/來信是想通知您,大通銀行(Chase)有您2000美元的退款亟待支付。為了加快處理進程並確保您盡快收到退款,請按照以下說明進行操作:請致電大通客戶服務部1-800-953-XXXX查詢您的退款狀態。請務必準備好您的帳戶資訊和任何相關資訊…」如果你在大通銀行辦理過業務,並在電子郵件或簡訊中收到了這條訊息,你可能會認為這是真的。它聽起來很專業,沒有奇怪的措辭、錯誤的語法或詭異的稱呼,而後者都是以前我們經常收到的網絡釣魚信息的特徵。這並不奇怪,因為這則訊息是由科技巨頭OpenAI去年底發布的人工智慧聊天機器人ChatGPT所產生的。作為提示,我們只需在ChatGPT中輸入:「給某人發一封郵件,告訴他大通銀行欠他2000美元退款。讓他撥打1-800-953-XXXX獲得退款。」(為了讓ChatGPT合作,我們必須輸入一個完整的數字,但顯然我們不會公佈這個號碼。)三藩市一家反詐欺新創公司Sardine的共同創辦人兼執行長索普斯•蘭詹(Soups Ranjan)說:「現在騙子的話術非常完美,就像其他母語使用者一樣。」美國一家數位銀行要求匿名的反詐騙主管也證實,銀行客戶被騙的情況越來越多,因為「他們收到的簡訊話術幾乎沒有任何破綻」。(為了避免自己成為受害者,請參閱本文末尾的五個建議。)在這個迎來生成式人工智慧或深度學習模型的新世界,這些模型可以根據他們接受過的資訊創建內容,對於那些心懷不軌的人來說,製作文字、音訊甚至視訊比以往任何時候都更容易。這些文字、音訊甚至影片不僅可以欺騙潛在的個人受害者,還可以欺騙現在用來挫敗詐騙的程式。在這方面,人工智慧並沒有什麼獨特之處,畢竟長期以來,壞人最早使用新科技,而警察則在後面拼命追趕。例如早在1989年,《福布斯》就曝光了竊賊如何利用普通電腦和雷射印表機偽造支票來騙過銀行,而當時的銀行沒有採取任何特殊措施來檢測這些假鈔。01. AI助長網路詐欺的崛起美國消費者向美國聯邦貿易委員會(FTC)報告稱,去年他們因詐騙而損失了創紀錄的88億美元——這還不包括未報告的被盜金額。.如今生成式人工智慧正在帶來威脅,並可能最終會讓現階段最先進的防詐欺措施都變得過時,例如語音認證,甚至是旨在將即時頭像與記錄頭像相匹配的「活動檢查」 (Liveness Check)。Synchrony是美國最大的信用卡發行商之一,擁有7,000萬活躍帳戶,該公司對於這趨勢有最直觀的認識。Synchrony高級副總裁肯尼斯·威廉斯(Kenneth Williams)在給《福布斯》的一封電子郵件中說:「我們經常看到有人使用深度偽造的圖片和影片進行身份驗證,我們可以有把握地認為它們是使用生成式人工智慧創建的。」紐約網路公司Deep Instinct在2023年6月對650名網路安全專家進行的一項調查顯示,四分之三的受訪專家發現,過去一年裡,網路詐騙事件有所增加,「85%的受訪問者將這種增加歸因於壞人使用了生成式人工智慧。」此外,美國聯邦貿易委員會也報告稱,2022年,美國消費者因詐欺損失了88億美元,比2021年增加了40%以上。最大的損失金額通常來自投資騙局,但冒名頂替的騙局是最常見的,這是一個不祥的跡象,因為這些騙局可能會因為人工智慧而進一步增強。犯罪分子可以透過各種令人眼花撩亂的方式使用生成式人工智慧。如果你經常在社交媒體或任何網路上發帖,他們可以讓一個人工智慧模型按照你的風格寫作,然後他們可以給你的祖父母發短信,懇求他們寄錢來幫助你擺脫困境。更可怕的是,如果他們掌握了一個孩子的簡短聲音樣本,他們就可以打電話給孩子的父母,冒充他們的小孩,並假裝自己被綁架了,要求父母支付贖金。這正是亞利桑那州一位四個孩子的母親詹妮弗·德斯蒂法諾(Jennifer DeStefano)今年6月在國會作證時所經歷的事情。不只是父母和祖父母,企業也成為了攻擊目標。犯罪者也可以偽裝成供應商,向會計人員發送看上去像是真的電子郵件,說他們需要盡快收到款項,並附上受他們控制的銀行帳戶的付款說明。Sardine的執行長蘭詹表示,Sardine的許多金融科技新創公司客戶自己也中了這些圈套,損失了數十萬美元。雖然與2020年一家日本公司在公司董事的聲音被克隆後損失的3500萬美元相比,這只是小巫見大巫(《福布斯》當時最先報道了這場精心策劃的騙局),但就現在越來越頻繁的類似案件而言,之前那起案件只是一部預告片,因為用於寫作、語音模仿和視頻處理的人工智能工具正在迅速變得更有能力、更容易獲得,甚至對普通的欺詐者來說也更便宜。防詐騙公司Persona的聯合創始人兼首席執行官里克•宋(Rick Song)表示,過去你需要成百上千張照片才能製作出高質量的深度造假視頻,而現在你只需要幾張照片就能做到。(是的,你可以在沒有真實視頻的情況下製作一個假視頻,但顯然,如果你有一個真視頻可用,那就更容易了。)02. 陷阱與電話欺騙:深度聲音複製的危險就像其他產業正在將人工智慧運用於自身業務一樣,騙子們也在利用科技巨頭發布的生成式人工智慧模型創造現成的工具,例如FraudGPT和WormGPT。在1月發布的一段YouTube影片中,世界首富伊隆馬斯克(Elon Musk)似乎是在觀眾宣傳最新的加密貨幣投資機會:他聲稱,特斯拉贊助了一項價值1億美元的免費活動,承諾將向參與者兩倍返還他們投入的比特幣、以太幣、狗狗幣或以太幣等加密貨幣。「我知道大家聚集在這裡是出於一個共同的目的。現在我們舉辦了一場直播,每個加密貨幣所有者都可以增加他們的收入。」一個低解析度的馬斯克在台上說。「是的,你沒聽錯,我正在主持SpaceX的一場大型加密貨幣活動。」沒錯,這段影片就是深度偽造的——騙子利用了他在2022年2月關於SpaceX可重複使用太空船計畫的演講來模仿他的形象和聲音。YouTube已經撤下了這段視頻,但在那之前任何已經向視頻中的地址發送了加密貨幣的人幾乎肯定會荷包受損。馬斯克是造假影片的主要模仿目標,因為網路上有無數的他的音訊樣本來支援人工智慧語音克隆,但現在幾乎任何人都可以被冒充。今年早些時候,住在佛羅裡達州南部一個退休社區的93歲老人拉里·萊納德(Larry Leonard)在家時,他的妻子接了一個座機電話。一分鐘後,她把電話遞給了萊納德,然後他聽到了電話那頭一個像他27歲孫子的聲音,說他開著卡車撞倒了一個女人,被關進了監獄。雖然萊納德注意到打電話的人叫他“爺爺”,而不是他孫子平時喜歡叫的“姥爺”,但那個人的聲音和他孫子一模一樣,而且他孫子確實開著一輛卡車的這個事實讓他把懷疑放在了一邊。當萊納德回答說他要打電話給孫子的父母時,打電話的人掛斷了電話。萊納德很快得知他的孫子是安全的,而整個故事——以及講述它的聲音——都是假的。萊納德在接受《富比士》採訪時表示:「他們能夠準確地捕捉到他的聲音、語調和語氣,這對我來說既可怕又驚訝。他們的句子或單字之間沒有停頓,這表明這些話是從機器或程式中讀出的,但聽起來就跟真的一樣。」老年人經常成為這類騙局的目標,但我們每個人現在都要對打進來的電話保持警惕,即使它們來自看起來很熟悉的號碼——比如鄰居。美國退休人員協會(AARP)的詐欺預防項目主管凱西·斯托克斯(Kathy Stokes)哀嘆道:「越來越多的情況是,我們不能相信接到的電話,因為騙子偽造了(電話號碼)。」美國退休人員協會是一家遊說和服務提供商,擁有近3800萬50歲及以上的會員。「我們不能相信我們收到的電子郵件,也不能相信我們收到的短信。所以我們被排除在了彼此交流的典型方式之外。」另一個不祥的進展是,即使是新的安全措施也受到了威脅。例如,為5000多萬投資者提供服務的共同基金巨頭先鋒領航集團(Vanguard Group)等大型金融機構為客戶提供了透過電話通話(而不是回答安全問題)來獲得某些服務的選擇。「你的聲音是獨一無二的,就像你的指紋一樣。」先鋒集團在2021年11月的一段影片中解釋說,該影片敦促客戶註冊語音驗證。但語音克隆技術的進步表明,企業需要重新考慮這種做法。Sardine的蘭詹說,他已經看到一些人使用語音克隆技術成功地通過銀行身份驗證並進入帳戶。先鋒集團的發言人拒絕評論該公司可能採取哪些措施來防止語音克隆技術的進步。採用非正式程序支付帳單或轉帳的小型企業(甚至是大型企業)也容易受到壞人的攻擊。長期以來,詐欺者透過電子郵件發送看似來自供應商的假髮票要求付款的情況屢見不鮮。現在,利用廣泛使用的人工智慧工具,詐騙者可以使用複製版本的高階主管聲音打電話給公司員工,假裝授權交易,或要求員工在「網路釣魚」或「語音釣魚」軟體中披露敏感資料。Persona執行長里克•宋表示:「說到冒充高管進行高價值欺詐,那就太厲害了,那也是一個非常現實的威脅。」他將這描述為自己「在語音方面最大的恐懼」 。03. AI能騙過防詐騙專家嗎?犯罪者越來越多地使用生成式人工智慧來欺騙防詐欺專家——即便這些防詐欺專家和科技公司在當今以數位為主的金融體系中扮演武裝警衛和運鈔車的角色。這些公司的主要職能之一是核實消費者的身份,以保護金融機構及其客戶免受損失。像Socure、Mitek和Onfido這樣的防欺詐公司驗證客戶身份的方法之一就是「活動檢查」(liveness check)——即他們讓你自拍照片或視頻,然後用照片或視頻片段將你的臉與你必須提交的身份證圖像進行匹配。在知道這個系統是如何運作的以後,竊賊就會在暗網上購買真實駕照的照片,然後使用視頻換臉程序——這種工具正在變得越來越便宜,也越來越容易獲得——把別人的真實頭像疊加到自己的臉上。然後,他們就可以在別人的數位臉後面說話和移動頭部,從而增加他們騙過活動檢查的機會。宋說:「偽造人臉的數量有了相當大的增長,這些偽造人臉是由AI生成的,具有很高的質量,而且針對活動檢查自動生成的欺詐攻擊也在增長。」他說,欺詐激增的情況因行業而異,但對一些行業來說,「我們看到的可能是去年的十倍。」金融科技和加密貨幣公司尤其容易受到此類攻擊。反詐騙專家告訴《富比士》,他們懷疑知名的身份驗證提供者(如Socure和Mitek)的防詐騙指標已經因此而下降。Socure首席執行官約翰尼•艾爾斯(Johnny Ayers)堅持認為“這絕對不實”,並表示他們在過去幾個月推出的新模型導致前2%最具風險的冒充身份欺詐捕獲率上升了14%。然而,他承認,一些客戶在採用Socure的新模型方面進展緩慢,這可能會影響它們的表現。艾爾斯說:“我們的客戶當中有一家全美排名前三的銀行,他們現在已經落後了四個版本。”Mitek拒絕對其模型的防詐欺性能指標發表具體評論,但其高級副總裁 Chris Briggs表示,如果一個特定的模型是在18個月前開發的,「那麼是的,你可以說舊模型的防詐騙效能不如新模型。隨著時間的推移,Mitek會運用現實生活中的資料流以及實驗室資料不斷對模型進行訓練和再訓練。」摩根大通、美國銀行和富國銀行都拒絕就他們在生成式人工智慧詐欺方面所面臨的挑戰發表評論。Chime是美國最大的數位銀行,過去也曾遭遇重大詐欺問題,其發言人表示,Chime銀行目前尚未發現與生成式人工智慧相關的詐欺有成長趨勢。如今,金融詐欺的幕後黑手有單獨行動的犯罪分子,也有數十名甚至數百名由犯罪者組成的複雜團夥。最大的犯罪集團和公司一樣,擁有多層組織結構和包括資料科學家在內的高階技術成員。蘭詹說:「他們都有自己的指揮和控制中心。」一些幫派成員負責放出誘餌——例如發送釣魚郵件或撥打電話。如果有「魚」上鉤了,他們就讓另一個同夥和被詐欺者繼續聯繫,這位同夥會假裝自己是銀行分行的經理,試圖讓你把錢從自己的帳戶中轉移出去。另一個關鍵步驟是:他們經常會要求你安裝一個像微軟TeamViewer或Citrix這樣的程序,以便遠端控制你的電腦。蘭詹說:「他們可以讓你的電腦完全黑屏。然後,騙子就會(用你的錢)進行更多交易,並把錢提取到他們控制的另一個網址上去。」騙子用來欺詐人們(尤其是老年人)的一個常見伎倆就是謊稱對方的帳戶已經被騙子控制了,需要對方合作才能追回資金。04. OpenAI和Meta的不同策略以上詐欺過程並非一定要使用人工智慧,但人工智慧工具可以讓騙子的伎倆更有效率、更可信。OpenAI已經試圖引入保護措施,以防止人們使用ChatGPT進行詐欺。例如,如果使用者讓ChatGPT起草一封電子郵件來詢問某人的銀行帳號,ChatGPT就會拒絕執行該指令並回覆:「我很抱歉,但我無法協助處理這個請求。」然而,使用ChatGPT進行詐欺操作還是很容易。OpenAI拒絕對這篇文章發表評論,只是讓我們去看公司發布的部落格文章,其中一篇文章發佈於2022年3月,文中寫道:「負責任的部署沒有一勞永逸的靈丹妙藥,所以我們試圖在開發和部署的每個階段了解我們模型的局限性以及潛在的濫用途徑,並解決相關問題。”與OpenAI相比,Meta推出的大語言模型Llama 2更容易被經驗豐富的犯罪分子當作犯罪工具使用,因為Llama 2是開源模型,所有程式碼都可以查看和使用。專家表示,這為犯罪分子提供了更多犯罪途徑,他們可以將模型據為己有,然後利用模型破壞網路安全。例如,人們可以在上面建立惡意的人工智慧工具。《富比士》邀請Meta對此發表評論,但沒有得到回應。Meta執行長馬克·祖克柏(Mark Zuckerberg)曾在今年7月表示,保持Llama的開源性可以提高其「安全性和保障性,因為開源軟體會受到更嚴格審查,更多人可以一起尋找並確定問題的解決方案。”防詐欺公司也試圖加快創新腳步以跟上AI發展的步伐,並且更多地利用新型數據類型來發現詐欺者。蘭詹說:「你打字的方式、走路的方式或拿手機的方式——這些行為特徵定義了你,但這些數據在公共領域是無法訪問的。要在網上判斷一個人是不是他自詡的那個人,內嵌的人工智慧將發揮重要作用。」換句話說,我們需要人工智慧來抓住使用人工智慧進行詐騙的罪犯。保護自己免受人工智慧詐騙的五個技巧:強化帳號:多重身分驗證(MFA)要求輸入密碼和額外的代碼來驗證你的身分。建議在你的所有金融帳戶上啟用MFA。注意隱私:騙子可以使用社群媒體或網路上的個人資訊來更好地冒充你的身分。封鎖陌生來電:花旗集團金融犯罪與詐欺防制主管麥克‧史坦巴克(Mike Steinbach)建議,不要接聽陌生號碼打來的電話。建立暗語或密碼:可以透過詢問事先商定的暗號或短語來確認對方是否真的是自己的家人。小型企業可以採用密碼來驗證企業行為(如高階主管要求進行電匯)。聽到高層要求購買禮品卡的訊息要格外當心——這是一個常見的騙局。出其不意:詐欺防制公司PointPredictive的共同創辦人蘭克‧麥肯納(Frank McKenna)建議,如果你在打電話時感覺不太對勁,可以試著向對方問一個隨機的問題,例如對方所在城市的天氣如何,或是一些個人問題。文|福布斯美國|福布斯中國